OpenAI je v četrtek predstavil svoje najnovejše modele o1, ki ponujajo pomembne napredke na področju logičnega razmišljanja, reševanja problemov in odgovarjanja na znanstvena vprašanja. Modeli so videni kot odločilen korak na poti k razvoju umetne splošne inteligence (AGI) – strojev, ki dosegajo človeško sposobnost razmišljanja.
V spremljevalni sistemski karti, ki opisuje delovanje umetne inteligence, pa OpenAI priznava, da so novi modeli občutno povečali tveganje za zlorabo tehnologije, zlasti v povezavi s proizvodnjo biološkega orožja. Prvič je podjetje svojim modelom dodelilo „srednjo stopnjo tveganja“ glede kemičnega, biološkega, radiološkega in jedrskega (CBRN) orožja. To pomeni, da je tehnologija bistveno izboljšala zmožnosti strokovnjakov za razvoj biološkega orožja.
Napredna programska oprema umetne inteligence, ki je zmožna postopnega izvajanja logičnih argumentacij, po mnenju strokovnjakov prinaša povečano tveganje za zlorabo.
Tehnološka podjetja, kot so Google, Meta in Anthropic, trenutno prav tako delajo na razvoju naprednih sistemov umetne inteligence. Ti agenti AI bi lahko pomagali ljudem pri opravljanju nalog in ponujali tudi potencialno donosne poslovne priložnosti za podjetja, ki se soočajo z ogromnimi stroški razvoja umetne inteligence.
Mira Murati, glavna tehnološka direktorica OpenAI, je za Financial Times izjavila, da podjetje pri uvedbi modelov o1 postopka zelo previdno, saj imajo obsežne zmožnosti. Vendar bodo modeli na voljo za plačljive naročnike prek ChatGPT in prek API-ja za programerje. Murati je dodala, da so bili modeli podvrženi obsežnim varnostnim testom in so v smislu varnosti dosegli boljše rezultate kot prejšnje različice.